首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI It supports various LLM runners, including Ollama and OpenAI-compatible APIs. For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    54510编辑于 2025-02-11
  • 今日高质量开源项目:Open WebUI (原 Ollama WebUI)

    项目简介OpenWebUI是一个功能丰富、可自托管的ChatGPT式Web界面,专门为本地或私有化部署的大语言模型(如通过Ollama运行的Llama3、Qwen等)提供现代化交互体验。 它不仅仅是一个聊天框,而是一个完整的AI工作站:多模型管理:在界面内轻松查看、下载、切换Ollama中的不同模型。对话体验:支持对话分支、消息编辑、Markdown渲染、代码高亮等。 一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI

    4.5K31编辑于 2026-01-27
  • 来自专栏数据仓库技术

    通过ollama+open webui可视化运行gemma

    今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 ollama pull gemma:7b 然后再执行上面命令,显示下面内容代表模型gemma已经运行了,可以开始对话了 我们测试一下: 2.安装Open Webui 2.1 安装Docker docker-desktop 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可

    9.8K31编辑于 2024-03-06
  • 来自专栏轩辕镜像

    玩转本地大模型:Ollama + Open WebUI简明使用指南

    直到有了 Ollama——一个简明易用的本地大模型运行框架。随着围绕着 Ollama 的生态走向前台,更多用户也可以方便地在自己电脑上玩转大模型了。 当你运行 ollama --version 命令成功查询到版本时,表示 Ollama 的安装已经顺利完成,接下来便可以用 pull 命令从在线模型库下载模型来玩了。 于是,Ollama 不是简单地封装 llama.cpp,而是同时将繁多的参数与对应的模型打包放入;Ollama 因此约等于一个简洁的命令行工具和一个稳定的服务端 API。 就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUIOllama 中,有多种方法可以自定义系统提示词。 首先,不少 Ollama 前端已提供系统提示词的配置入口,推荐直接利用其功能。

    16.6K12编辑于 2024-09-29
  • 来自专栏Mintimate's Blog

    看看 OllamaOpen WebUI如何配合

    本文将介绍如何在 macOS 上部署 OllamaOpen WebUI,实现本地运行 DeepSeek 大模型。 最后的效果:部署思路目前本地部署 DeepSeek-R1 的途径很多,主流的方法是使用 Ollama + Open WebUI 或者 Ollama + ChatbotUI;我个人是觉得 Ollama + 后续我们使用 Open WebUI 通过 Ollama 的 API 进行调用。模型的本地存放地址,在~/.ollama/models内:到此,Ollama 和模型就部署完成了。 open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。 配置 Open WebUI其实本地 Open WebUIOllama 的配置,已经做到了开箱即用。存在部分情况需要设置 API 接口,或者设置远程 ollama 的接口用于本地调用。

    2.8K01编辑于 2025-02-18
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 docker run --name open-webui -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui :main ## 访问web界面(http://127.0.0.1:8080/) #### 登录后界面 这次测试ollama、deepseek和webUI都是在一台机器上,且端口都是默认的,所以webUIOpen-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;

    2.6K11编辑于 2025-03-20
  • 来自专栏运维知识

    使用OllamaOpen WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI 3.Open WebUI下载 安装完成之后重启电脑,打开Docker 复制这条命令( Ollama 在您的计算机上使用以下命令) 不同的条件下,有不同的命令,详细见开源地址所述 docker run -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    35.9K32编辑于 2024-06-03
  • # 🚀 Open WebUI × Ollama:小白轻松打造私有化 AI 帝国的终极指南

    gpu]restart:alwaysnetworks:-ai-networkopen-webui:image:ghcr.io/open-webui/open-webui:maincontainer_name :open-webuiports:-"3000:8080"environment:-OLLAMA_BASE_URL=http://ollama:11434-WEBUI_SECRET_KEY=your-secret-key-change-me-ENABLE_RAG_WEB_SEARCH \-vopen-webui-data:/app/backend/data\--restartalways\ghcr.io/open-webui/open-webui:main`第三章:核心功能实战——超越简单的聊天 访问控制:修改默认WEBUI_SECRET_KEY。在Ollama侧配置OLLAMA_HOST仅监听内网IP,防止未授权访问。 4.3常见问题排查(Troubleshooting)问题可能原因解决方案OpenWebUI连不上Ollama网络不通或CORS未配检查OLLAMA_BASE_URL;确保Ollama设置了OLLAMA_ORIGINS

    81710编辑于 2026-03-23
  • 无需公网IP,内网穿透远程访问Ollama+Gemma3模型+Open WebUI教程

    本地部署Ollama搭配开源视觉模型Gemma3和Open WebUI,不仅可离线运行强大多模态大模型,还通过图形界面实现便捷交互,兼顾隐私、安全与易用性。 以下是在本地部署Ollama+Gemma3模型+Open WebUI的完整细化流程,适用于Windows环境,后续还可以结合贝锐花生壳进行内网穿透实现远程访问,而且无需公网IP、无需配置路由器,操作非常简单 2.打开命令提示符拉取Open WebUI Docker镜像docker pull ghcr.io/open-webui/open-webui:main3.启动容器并绑定Ollamadocker run-d \ --name open-webui \ ghcr.io/open-webui/open-webui:main-p 3000:8080:本地开放端口为3000OLLAMA_BASE_URL指向你主机上的 至此,从模型部署到图形化界面再到远程访问,一整套基于Ollama+Gemma3+Open WebUI的本地AI应用方案已经搭建完成。

    2.9K20编辑于 2025-06-30
  • 来自专栏轩辕镜像

    Docker 部署 Open WebUI + Ollama 完整教程(Windows Linux 通用)—— 打造自己的本地OpenAI

    拉取OpenWebUI镜像:展开代码语言:BashAI代码解释dockerpulldocker.xuanyuan.run/openwebui/open-webui:latest拉取Ollama镜像:展开代码语言 /open-webui:latestWindows系统(PowerShell执行)展开代码语言:PowerShellAI代码解释dockerrun-d--nameopen-webui--networkai-network-p3002 /openwebui/open-webui:latest关键命令说明:\-p3002:8080:将OpenWebUI的8080端口映射到本地3002端口,后续通过localhost:3002访问;\-eOLLAMA \_BASE\_URL=http://ollama:11434:关键环境变量,告诉OpenWebUIOllama的地址,确保两者能够正常连接;\-vopen\-webui:/app/backend/data 正常情况下,会显示两个容器的运行状态,如下所示(简化版):展开代码语言:TXTAI代码解释CONTAINERIDIMAGEPORTSxxxxxxxdocker.xuanyuan.run/openwebui/open-webui0.0.0.0

    23320编辑于 2026-04-25
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.6K00编辑于 2025-03-04
  • 来自专栏Java Tale

    open-webui镜像启动失败

    /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, 完整的命令行如下: docker run -d \ --restart unless-stopped \ --name ollama-webui \ -p 11433:8080 \ :11434/api \ -e HF_ENDPOINT=https://hf-mirror.com \ -e WEBUI_SECRET_KEY=12345678 \ ghcr.io/open-webui /open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    1.6K10编辑于 2024-08-15
  • 来自专栏前端必修课

    Open WebUI 文本效率分析工具

    今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc

    40310编辑于 2025-03-07
  • 从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 部署教程(Docker 版)!

    在本教程中,我们通过 ollama 运行 deepseek 模型,提供强大的对话能力。 open-webui open-webui 是一个开源的 Web 界面,用于与 AI 模型进行交互。 :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main -p 3000:8080 : image:ghcr.io/open-webui/open-webui:main container_name:open-webui ports: -"3000: ollama启动与 open-webui调用速度差异 在测试过程中,我发现 直接使用 ollama 启动并与模型对话 的速度比通过 open-webui 调用 API 的速度要快得多。 然而,ollama(和其中的 deepseek)容器在内存不够的情况下依旧能够稳定运行,不会像 open-webui 一样挂掉,并且单独提问也比在 open-webui 回答的速度快。

    65010编辑于 2026-03-24
  • 来自专栏开源项目搭建

    使用Ollama+Open-Webui把DeepSeek等大模型分享给团队的小伙伴使用

    使用Ollama+Open-Webui把DeepSeek等大模型分享给团队的小伙伴使用大家好,我是星哥,之前讲了很多关于本地Ollama的安装和使用DeepSeek等各种大模型的文章,本篇文章主要介绍一下 ,使用Ollama+Open-Webui把DeepSeek等大模型分享给局域网的童鞋使用。 安装好Ollama+Open Webui+开源大模型(DeepSeek、Llama等)修改Ollama服务IP由于局域网IP段是192.168.1.X,我把ip固定以免DHCP把ip分配给局域网其他终端了 问题1: Open Webui打开很慢这时候通过浏览器使用IP+端口即可访问Open Webuiopen webui打开 api/models 很慢,每次都超过20秒了,打开都要等很久。 验证这样团队的小伙伴就可以使用你的Ollama了。结束通过结合 OllamaOpen-WebUI,我们能够非常方便地将大模型(如 DeepSeek)通过局域网分享给团队中的其他成员使用。

    4.4K10编辑于 2025-02-10
  • 史上最强的管理监控工具之Ollama-webui

    Ollama-webui是一个管理和监控工具,用于管理和监控Ollama应用程序。以下是使用Ollama-webui的详细操作步骤: 首先,确保你已经正确安装了OllamaOllama-webui。 安装完成后,启动Ollama-webui。在命令行中输入以下命令: ollamawebui start 这将启动Ollama-webui,并在默认端口(一般是8080)上监听。 打开一个支持Web浏览的浏览器,并访问以下网址: http://localhost:8080 这将打开Ollama-webui的主界面。 在主界面中,你可以看到一个菜单栏,其中包含多个选项卡。 Settings选项卡:提供对Ollama-webui的设置和配置选项。 在Applications选项卡中,你可以看到一个应用程序列表。 以上就是使用Ollama-webui的基本操作步骤。请注意,具体的操作步骤可能会因版本和配置的不同而有所变化。如果你遇到任何问题,请参考Ollama-webui的官方文档或寻求相应的技术支持。

    95010编辑于 2025-08-29
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求         a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK                i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。           前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里                 ii. 点击get,输入自己Open Webui的地址就直接跳往安装。         b. 填写密钥                 i. 点击齿轮按钮依次输入刚刚获取的密钥就行         c.

    1.1K11编辑于 2025-01-10
  • 来自专栏开发三两事

    llama3&open-webui快速实现本地模型搭建

    下载 下载地址:https://ollama.com/ 下载后直接一直无脑下一步就好,完成后访问http://localhost:11434/ 成功访问看到running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui tag:找ollama 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui首页就可以选择开始使用了; 本地模型使用 可以看到首页下拉框中可以选择我们已经下载好的模型 ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webuiOllama联动使用的示例; Ollama也提供接口直接调用的方式使用,方便二次开发: curl http://localhost:11434/api/generate -d '{ "model"

    2.4K50编辑于 2024-04-29
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always --restart always ghcr.io/open-webui/open-webui:main 4.带有捆绑Ollama支持的Open WebUI安装 此安装方法使用一个单独的容器映像,将 Open WebUIOllama捆绑在一起,通过单个命令实现简化设置。 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama /data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama 这两个命令都支持内置、简单的安装Open

    2.7K20编辑于 2025-02-04
  • 来自专栏运维小路

    DeepSeek-容器化(Docker)部署vLLM和Open WebUI

    apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui /open-webui:cuda docker pull vllm/vllm-openai 4.运行vLLM容器 docker run -d \ --gpus all \ --restart unless-stopped 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - http://localhost:8000/v1 \ -e OPENAI_API_KEYS=OPENWEBUI123 \ -e USE_CUDA_DOCKER=true \ ghcr.io/open-webui /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080

    8.3K10编辑于 2025-03-06
领券